HOMME - Exploration du génome humain

HOMME - Exploration du génome humain
HOMME - Exploration du génome humain

À partir du milieu des années 1980, les progrès du génie génétique ont permis l’élucidation de maladies dont le caractère héréditaire était démontré, mais pour lesquelles la nature du défaut, en fait la protéine impliquée et le mécanisme pathogénique, était totalement inconnu. De brillants succès furent alors remportés avec la découverte des gènes impliqués dans plusieurs affections héréditaires graves: myopathie de Duchenne en 1986, mucoviscidose en 1989; et, au début de 1993, chorée de Huntington. Le déroulement de ces recherches avait certes précisé l’étude du caryotype humain, c’est-à-dire de nos chromosomes (tabl. 1), mais il faisait néanmoins apparaître leurs limites: celles de travaux relativement ponctuels, non coordonnés et menés simultanément par de nombreuses équipes. Ces constatations ont conduit certains scientifiques à proposer en 1986 la création d’un Programme génome humain pour organiser l’analyse systématique de notre ADN. Aujourd’hui, ce programme est une réalité: aux États-Unis, où il fut d’abord proposé, mais aussi en Grande-Bretagne, en France, en Italie, au Japon... Il bénéficie de budgets importants, du moins à l’échelle de la recherche biologique, et a déjà produit des résultats appréciables (tabl. 2 et 3). L’étude du génome étant abordée principalement à trois niveaux (cartographie génétique, cartographie physique et séquençage de l’ADN), nous allons envisager les différents aspects de ces travaux en nous attachant à montrer le mode de pensée, les approches méthodologiques et les évolutions prévisibles.

1. La carte génétique: R.F.L.P. et « microsatellites »

L’établissement d’une carte génétique repose sur l’observation de la façon dont des caractères sont transmis au cours des générations, et sur les associations éventuelles de certains de ces caractères. On étudiera, par exemple chez la Drosophile, comment sont
transmis des traits morphologiques ou biochimiques. On cherchera, en particulier, à détecter si tel ou tel trait étudié présente une liaison génétique, c’est-à-dire si l’assortiment des allèles (« versions » de chaque caractère) présent chez les parents a tendance à se retrouver dans la descendance. Lors de la formation des cellules germinales (ovule ou spermatozoïde) ont lieu des recombinaisons entre chaque paire de chromosomes homologues: la probabilité qu’une recombinaison se situe entre deux sites génétiques ou loci (et donc que l’assortiment des allèles soit modifié) sera d’autant plus faible que ces loci seront proches sur le chromosome. C’est à partir de telles analyses qu’une carte génétique pourra être établie. Elle sera linéaire (comme la molécule d’ADN qui porte les gènes) et reliera des loci correspondant aux gènes qui déterminent les caractères observés. Sur cette carte, les distances seront mesurées en morgans, en mémoire de Thomas Hunt Morgan, fondateur au début du XXe siècle de la génétique moderne: un centimorgan représente une fréquence de recombinaison de 1 p. 100.

Chez l’homme, naturellement, cette analyse comporte quelques spécificités car il faut s’accommoder des « croisements » déjà effectués, c’est-à-dire étudier des familles préexistantes. L’effectif de la descendance est très faible, d’où d’importantes erreurs statistiques, sans parler des éventuelles incertitudes sur la filiation... Et la complexité du génome humain (au moins 50 000 gènes différents) ne facilite pas la tâche! Il a donc fallu trouver des « caractères » nombreux, relativement aisés à observer et hautement polymorphes: ce sont les polymorphismes de restriction (R.F.L.P., restriction fragment length polymorphisms ) ainsi que les microsatellites. Mesurés au niveau de l’ADN, ils reflètent la variabilité de la séquence nucléotidique de cette molécule. En effet, si nous avons tous (autant qu’on le sache actuellement) les mêmes cinquante mille ou cent mille gènes, disposés dans le même ordre sur les mêmes chromosomes, si la séquence de l’ADN est pour l’essentiel la même d’un individu à un autre, il n’en reste pas moins qu’elle n’est pas strictement identique et qu’elle présente un certain taux de variation. Toute région donnée de notre ADN diverge de celle de notre voisin ou de notre conjoint, à raison de quelques différences, tous les mille nucléotides: riche mine de caractères, pour peu que l’on trouve les moyens d’en tirer parti. C’est ce à quoi s’attachent de nombreux laboratoires, avec pour objectif l’établissement d’une carte génétique humaine complète et détaillée.

L’outil des polymorphismes de restriction (R.F.L.P.)

La construction de cette carte a d’abord reposé sur l’exploitation des R.F.L.P. (fig. 1). On s’appuie ici sur le fait que les petites variations de séquence de l’ADN d’un individu à un autre ont parfois pour effet l’apparition ou la disparition du site de coupure d’une enzyme de restriction (enzyme qui coupe la molécule d’ADN en reconnaissant une séquence déterminée; il en existe plus d’une centaine de spécificité différente). Si tel est le cas (avec une fréquence suffisante dans la population), ce polymorphisme sera utilisable. On le révélera à l’aide d’un fragment d’ADN correspondant à la zone en question: « marqué » par la radioactivité ou à l’aide d’un groupement fluorescent, il sera employé pour des expériences d’hybridation moléculaire. Elles mettront en évidence, après coupure de l’ADN extrait d’un prélèvement sanguin, séparation sur gel et transfert sur filtre, un fragment moléculaire d’ADN hybridé de taille variable selon les individus. L’emploi d’un tel segment d’ADN comme « sonde » révélant les caractéristiques de la région correspondante dans l’ADN d’un individu donné est une méthode très employée en génétique moléculaire. La transmission des divers allèles de ce R.F.L.P. pourra être suivie au travers de la descendance. En étudiant ainsi plusieurs R.F.L.P. au sein de grandes familles, on évaluera la distance génétique qui les sépare. Bien que les repères soient des segments d’ADN, il s’agit bien de cartographie génétique, puisque les distances sont mesurées en fréquences de recombinaison et non selon la distance physique le long de l’ADN.

Pour construire cette carte génétique, il faut donc au préalable isoler des centaines de segments d’ADN, au moyen de sondes définissant des R.F.L.P. répartis tout le long du génome: ce n’est pas une mince affaire, d’autant plus que l’expérience a montré que, en moyenne, seule une sonde sur dix révèle un R.F.L.P. exploitable. Il faut ensuite analyser l’association des R.F.L.P. et leur transmission au fil des générations afin de définir leur position les uns par rapport aux autres. C’est dans ce domaine que la contribution du Centre d’étude du polymorphisme humain (C.E.P.H.), fondé en 1983 par Jean Dausset, a été fondamentale. Ce centre a rassemblé des prélèvements sanguins de plus de cinq cents individus appartenant à quarante familles et a fourni à la communauté scientifique l’ensemble des échantillons d’ADN correspondants, permettant ainsi à toutes les équipes de partager le même matériel d’étude et d’établir des cartes cohérentes.

Ce travail, poursuivi par de nombreux laboratoires, a d’abord abouti à la publication, en 1987, de la première carte génétique de l’homme. Cette carte a constitué une étape capitale, mais son balisage était encore trop lâche: l’espacement moyen entre les jalons était de 10 à 20 centimorgans. Or, chez l’homme, un intervalle génétique de 10 centimorgans correspond à une distance d’environ 10 millions de bases nucléotidiques le long de l’ADN. C’est là une étendue énorme, même pour les méthodes d’analyse de l’ADN les plus modernes. L’obtention d’une carte génétique à un centimorgan (dont les jalons ne seraient distants en moyenne que d’un centimorgan) est une priorité. Les R.F.L.P. ne sont pas parfaits à cet égard: ils n’ont en général que deux allèles et sont parfois « non informatifs » dans une famille donnée. Si, en effet, les deux parents portent chacun sur leurs deux chromosomes le même allèle a1 (fragment Taq 1 à 2,2 kilobases, par exemple dans la figure 1) du locus A, il en sera naturellement de même pour tous les descendants: l’étude de ce R.F.L.P. dans cette famille n’apportera aucune information.

L’apport des microsatellites

La recherche de polymorphismes plus commodes s’est orientée vers l’emploi de séquences très répandues dans le génome: les microsatellites, qui comportent de multiples répétitions d’un motif simple constitué de deux, trois ou quatre nucléotides (fig. 2). L’intérêt de ces séquences est due à deux de leurs caractéristiques. D’une part, il en existe plusieurs centaines de milliers dans notre génome, d’autre part, leur longueur est variable. Le nombre de répétitions du motif de base diffère d’un individu à l’autre, de sorte que, à l’endroit du génome où se trouve un microsatellite, il sera répété dix-sept fois chez une personne, dix-huit chez une autre et quinze chez une troisième. Ces variations sont suffisamment fréquentes pour aboutir à un polymorphisme important dans la population. La construction de la carte génétique humaine repose donc de plus en plus sur ces balises performantes. C’est ainsi que deux nouvelles cartes ont été obtenues à la fin de 1992 (cf. tableau): l’une, résultat d’une collaboration franco-américaine impliquant de nombreux laboratoires, est fondée à la fois sur des R.F.L.P. et des microsatellites. L’autre, due à l’équipe de Jean Weissenbach au Généthon, est moins détaillée mais plus cohérente et surtout entièrement bâtie sur ces excellents repères que sont les microsatellites.

2. La carte physique: une description directe de l’ADN

Carte physique et carte génétique sont deux représentations différentes de la même réalité. Certes, établir la carte physique du génome, d’un chromosome, ou d’une région d’un chromosome, c’est encore définir des jalons et les repérer les uns par rapport aux autres. Mais, cette fois, les jalons sont « incarnés » dans l’ADN: ce sont des gènes déjà isolés et caractérisés, ou des segments dits « anonymes » car non identifiés en tant que gènes. La construction de la carte ne repose plus sur l’étude des familles: elle est fondée sur des analyses de la molécule d’ADN aboutissant à positionner les différents jalons et à évaluer les distances qui les séparent. Ces dernières sont directement mesurées le long de l’ADN: l’unité est ici la base (ou la paire de bases pour l’ADN double brin, ce qui revient au même) et ses multiples, la kilobase (1 000 bases) et la mégabase (1 000 kilobases, 1 million de bases). La carte génétique et la carte physique peuvent comporter les mêmes repères: c’est souhaitable, bien que ce ne soit pas toujours le cas. L’ordre des repères sera naturellement identique: si le caractère C se situe génétiquement entre A et B, c’est assurément parce que le gène de A, celui de C et celui de B se succèdent dans cet ordre le long de la molécule d’ADN. Néanmoins, C peut être plus proche de A que de B dans la carte génétique, alors que l’inverse est vrai pour la carte physique (fig. 3). Les deux cartes sont donc à la fois différentes et intimement apparentées.

Plusieurs méthodes sont mises en œuvre pour effectuer cette étude. L’hybridation in situ sur les chromosomes en métaphase indique avec quelle région chromosomique coïncide une sonde donnée; sa précision est certes limitée (elle place une sonde à quelques mégabases près), mais les renseignements ainsi apportés sont précieux. Les autres procédés de cartographie physique font appel à l’analyse et au clonage de l’ADN. Analyse et clonage sont en effet complémentaires et, combinés, rendent possible la marche le long du chromosome pour isoler de proche en proche les segments successifs qui « couvrent » une région déterminée. Cependant, le génome humain renferme environ trois milliards de nucléotides, trois mille mégabases, et un chromosome de taille moyenne, comme le chromosome X, est constitué d’une molécule d’ADN longue de cent cinquante mégabases. Les jalons placés par une cartographie génétique très précise à un centimorgan sont donc distants d’une mégabase à peu près. La carte physique devra donc être établie à partir de points de repères distants d’une ou plusieurs mégabases. L’emploi de techniques adaptées s’impose: électrophorèse en champs pulsés, qui sépare des fragments d’ADN allant de quelques centaines à quelques milliers de kilobases, et méthode des Y.A.C. (yeast artificial chromosomes , chromosomes artificiels de levure) qui « déguise » de grands morceaux d’ADN humain (100-1 000 kilobases) en chromosomes de levure pour les cloner dans ce micro-organisme.

Électrophorèse en champs pulsés

L’électrophorèse classique sur gel d’agarose sépare un mélange de fragments d’ADN selon leur taille, à condition qu’elle ne dépasse pas quelques dizaines de kilobases. Mais de très grandes molécules (100, 500 ou 1 000 kilobases) migrent toutes à la même vitesse: il n’y a plus séparation. Ce problème a pu être résolu en modifiant périodiquement la direction du champ électrique appliqué, ce qui oblige les molécules à se réorienter à chaque fois. Une molécule d’ADN très longue (1 000 kilobases) passera alors la majeure partie de la durée de l’expérience à se réorienter; une molécule plus petite (environ 100 kilobases) passera la majeure partie du temps à migrer. On arrive de la sorte à séparer des fragments d’ADN allant jusqu’à 1 000, 2 000 et même 10 000 kilobases. Les séparations obtenues autorisent l’établissement de cartes (physiques) de régions du génome pour lesquelles des sondes sont disponibles: ces cartes peuvent couvrir des milliers de kilobases et ainsi rejoindre l’échelle de l’analyse génétique.

Clonage sous forme de chromosomes artificiels de levure (Y.A.C.)

Toutefois, seul le clonage, l’isolement d’un segment d’ADN humain dans un hôte microbien qui peut être multiplié à volonté, offre réellement la possibilité d’une étude détaillée de cet ADN et des gènes qu’il contient. C’est pourquoi la mise au point, en 1987, d’un système de clonage de grands fragments d’ADN (de 100 à 1 000 kilobases) suscita une vive attention. En ajoutant à de grands fragments d’ADN humain les éléments qui leur permettent de se comporter à l’intérieur d’une cellule de levure comme un chromosome endogène. on pouvait construire des librairies de Y.A.C. contenant de très longs segments clonés (fig. 4). Ces librairies – malgré quelques défauts – se sont révélées de grande valeur et sont devenues des outils essentiels pour l’analyse des grands génomes.

Deux versions de la carte physique

Une carte physique peut s’appuyer principalement sur l’analyse de l’ADN génomique (en gels puisés, par exemple): elle nous indique alors la taille de la région, la position de certains repères (sondes, sites de restriction...), une topographie plus ou moins détaillée de l’ADN, sans pour autant donner les moyens d’accéder rapidement à tout point de cette zone. Si, en revanche, la carte a été établie en « couvrant » la région par des segments d’ADN clonés, nous avons non seulement une information topographique sur la région, mais aussi, surtout, une série de segments d’ADN clonés, déjà isolés et relativement faciles à préparer en quantité (fig. 5). Cela rend praticable l’étude détaillée d’une zone particulière: cartographie plus précise, recherche de gènes, et même séquence de leur ADN... Différents laboratoires s’attachent à réaliser de telles cartes chez l’homme. Pour y parvenir, les centaines ou milliers de clones (cosmides, ou mieux Y.A.C.) qui représentent une partie d’un chromosome, ou même un chromosome entier, sont analysés et comparés entre eux afin de déceler ceux qui se chevauchent. On arrive ainsi à « assembler » certains clones dont on a reconnu les chevauchements; cet assemblage de clones contigus est appelé, dans le jargon des chercheurs, un « contig ». L’établissement de ces contigs détermine – par définition! – la carte physique de la région qu’ils couvrent, mais les contigs rendent cette zone directement accessible puisqu’elle est maintenant découpée en petits morceaux ordonnés et que chaque morceau correspond à un clone existant. Si l’on sait que le gène (inconnu) impliqué dans une maladie se situe entre A et B, et si un contig de clones a été défini de A jusqu’à B, un de ces clones doit le renfermer. Grâce à un examen détaillé, assorti de comparaisons entre malades et individus témoins, ce gène pourra être identifié.

Des entreprises ambitieuses

La cartographie physique peut porter sur les quelques mégabases qui séparent deux marqueurs génétiques entre lesquels a été localisé le gène de la maladie étudiée: il s’agit alors de stratégies ciblées dont le but est d’arriver le plus vite possible à identifier et à isoler ce gène afin d’en entamer l’analyse moléculaire. L’ambition des Programmes génome est plus vaste: ils soutiennent des équipes qui se consacrent à l’examen exhaustif d’un chromosome entier, et ont pour objectif d’établir sa carte physique complète, appuyée sur des collections de clones couvrant l’ensemble du chromosome – clones qui seront extraordinairement utiles pour toute investigation portant sur un gène ou une maladie localisés dans une région donnée de ce chromosome. Certains – comme Daniel Cohen et ses collaborateurs – se sont même attaqués d’emblée à l’établissement d’une carte physique de la totalité du génome humain. À cette fin, ils ont employé des méthodes semi-industrielles, dans le cadre d’un laboratoire financé par l’Association française contre les myopathies (A.F.M.), le Généthon. Leur entreprise est susceptible d’aboutir, dès la fin de 1993, à une carte physique générale de notre génome, ce qui constitue une accélération considérable par rapport aux prévisions les plus optimistes.

Cette recherche pose de façon criante la question du collationnement de résultats, de leur validation, de leur diffusion, de la disponibilité des librairies et des clones... qui doit être impérativement traitée au mieux pour éviter les duplications, la non-exploitation de ressources amassées à grand-peine ou même les erreurs préjudiciables aux malades. Plusieurs banques de données ont été créées, mais leur accès n’est pas encore à la portée de tous les laboratoires, et la transmission « physique » des clones reste ardue compte tenu de leur nombre élevé et de la multiplicité des équipes concernées.

3. Séquençage: la description la plus fine

La séquence est la forme ultime de la carte physique – puisqu’elle définit entièrement l’ADN et que l’on peut en déduire la carte des sites de coupure par les enzymes de restriction, la présence de gènes... Une fois une région couverte par un contig de clones, il est en principe concevable de séquencer l’ensemble. Néanmoins, déchiffrer un segment de 100 kilobases (il en faut 1 000 alignés bout à bout pour couvrir simplement le chromosome X...) reste encore un travail considérable, même dans les grands laboratoires, même avec des instruments sophistiqués. Séquencer un chromosome humain est donc impossible aujourd’hui. Par ailleurs, on estime à l’heure actuelle que, dans un centre spécialisé, la base séquencée coûte entre 1 et 5 dollars. La lecture d’une mégabase d’ADN (1 000 kilobases, 1/150 du chromosome X...) coûte donc au moins de 10 à 20 millions de francs. Dans ces conditions, il paraît judicieux de consacrer l’essentiel des efforts à l’amélioration des méthodes et au séquençage de quelques régions témoins, suffisamment importantes pour avoir valeur de test, mais dont la taille reste raisonnable.

Des méthodes qui ont peu évolué

Contrairement à l’analyse d’ADN ou au clonage, les procédés de séquençage n’ont pas subi de révolution depuis le début des années 1980. Il faut donc partir d’ADN cloné, puis fractionner ce segment d’ADN en petits sous-clones, contenant chacun quelques centaines de bases. Intervient alors toute une suite de réactions enzymatiques dont les produits sont fractionnés par un « séquenceur » automatique capable de « lire » la taille des fragments obtenus et d’en déduire la séquence du segment. Cette méthode, plus rapide que la traditionnelle autoradiographie interprétée par l’opérateur, permet en principe de lire de cinq mille à dix mille nucléotides de séquence brute par jour. Les résultats donnés par ces machines doivent enfin être repris par un système informatique effectuant l’assemblage de ces petites séquences. La « production » théorique de tels systèmes se chiffre en centaines de milliers ou même en millions de nucléotides par an. En réalité, l’analyse complète d’une centaine de kilobases prend une bonne année à un laboratoire compétent et bien équipé en raison de nombreuses difficultés techniques et organisationnelles encore mal maîtrisées. N’oublions pas que le génome humain mesure 3 000 mégabases: nous sommes encore loin du compte. Il est donc impératif que soient trouvées des méthodes plus rapides, plus efficaces et moins onéreuses. Il peut s’agir d’adaptations de la technique rappelée ci-dessus, avec la recherche d’une automatisation complète, ou de l’emploi de procédés de séparation plus performants. Plus en amont, plus hasardeuse, la microscopie à effet tunnel ou à force atomique pour « lire en direct » la succession des bases le long de la molécule d’ADN en est à la démonstration de faisabilité. Ces procédés de deuxième ou troisième génération sont encore loin d’avoir fait leurs preuves, mais ils joueront peut-être un rôle dans quelques années...

L’interprétation ne va pas de soi

En tout état de cause, il ne suffit pas de lire l’ADN, encore faut-il savoir l’interpréter. Les séquences codantes n’occupent qu’une fraction réduite (5 p. 100 environ) de l’ADN génomique humain; et les gènes sont fractionnés en exons parfois très petits, séparés par des introns non codants et parfois de très grande taille. Il n’est pas aisé de reconnaître les exons dans une séquence d’ADN, malgré l’emploi de critères multiples: présence d’un cadre de lecture ouvert rendant possible la traduction d’une protéine, fréquence d’utilisation des différents codons, signaux d’épissage au début et à la fin des exons, signaux caractéristiques des « promoteurs » en début de gène. Chacun de ces indices est flou et les séquences « canoniques » admettent de nombreuses variantes. Bref, l’interprétation d’une séquence est un exercice qu’il est bien difficile d’« apprendre » à un ordinateur, cela d’autant plus que les meilleures séquences comportent un taux d’erreur probable d’à peu près un pour mille, soit assez pour fausser toute procédure d’analyse appliquant des règles trop rigides. Des progrès significatifs sont en cours, grâce à la puissance toujours accrue des systèmes informatiques et, dans certains cas, à des programmes simulant le fonctionnement de notre cerveau (les fameux « réseaux neuronaux »). Ces améliorations sont encore insuffisantes, et la détection de gènes dans un segment d’ADN humain séquencé reste aléatoire.

Un raccourci: l’ADN complémentaire

Le séquençage d’ADNc est une façon, a priori, plus judicieuse d’envisager le séquençage de l’ADN, surtout pour l’ADN humain: il concentre l’effort sur les zones essentielles, celles qui correspondent aux gènes. Le moyen d’accéder directement aux séquences géniques, c’est de travailler sur des banques d’ADN complémentaire. On les construit à partir d’ARN messager provenant du gène intéressant. Il est extrait d’un tissu ou de cellules en culture, puis recopié en ADN in vitro, ce qui permet ensuite sa propagation dans des bactéries par les procédés classiques du génie génétique. Cet ADNc, par définition formé d’une séquence transcrite à partir d’un gène, est donc un outil privilégié pour accéder à la séquence de celui-ci. Cette approche par les ADNc est un point fort des Programmes génome de pays comme la Grande-Bretagne, le Japon, la France... Les équipes des États-Unis se sont, elles aussi, lancées dans cette voie avec l’efficacité qui les caractérise.

La tactique de l’étiquette

Le mode opératoire le plus productif consiste, à partir d’une banque d’ADNc, à déterminer pour chaque clone un peu de séquence: deux ou trois centaines de nucléotides. Un séquenceur automatique effectue une trentaine d’analyses en parallèle au cours d’une seule séance de travail de quelques heures. L’information ainsi obtenue est fragmentaire: la séquence complète d’un ADNc couvre de 1 000 à 10 000 nucléotides; de plus, elle peut comporter un taux d’erreur de 1 ou 2 p 100. Cette séquence, souvent appelée « signature » ou « étiquette », est partielle, mais pourtant utile: elle peut être comparée aux séquences déjà enregistrées dans les banques de données pour savoir si elle provient d’un gène connu ou si, au contraire, elle révèle une nouvelle entité (ce qui est le cas le plus fréquent). On peut aussi en déduire une partie de la structure de la protéine produite par le gène et, parfois, en tirer des indications quant à sa fonction possible. Enfin, cette séquence partielle permet, le cas échéant, d’isoler le gène qui lui correspond, au prix naturellement d’un travail supplémentaire non négligeable mais pratiquement sans difficulté. L’approche est éminemment efficace, puisqu’un laboratoire bien rodé, de taille moyenne, peut espérer traiter annuellement plusieurs milliers de clones d’ADNc. Le nombre total de nos gènes est évalué à cinquante mille ou cent mille, et seuls quelques milliers sont connues pour l’instant: une telle contribution est significative! Cette piste, suivie par plusieurs équipes importantes, peut rapidement donner des informations au moins sommaires sur la majorité des gènes contenus dans notre patrimoine héréditaire.

L’information génétique est-elle brevetable?

Un des premiers laboratoires à s’être lancé dans ce séquençage partiel systématique est celui de l’Américain Craig Venter. Son employeur, le National Institute of Health, a déposé une demande globale de brevet pour des milliers de séquences nouvelles obtenues. Ces brevets seront-ils accordés? Rien de moins sûr: pour être brevetable, une invention doit présenter un caractère de nouveauté , elle ne doit pas être évidente en l’état actuel des techniques, et son utilité doit apparaître clairement. La nouveauté d’une séquence, qui existait dans le génome avant d’être déchiffrée, est toute relative: on la découvre plus qu’on ne l’invente, et une découverte n’est pas brevetable. Le deuxième élément de la « brevetabilité », l’originalité de la méthode, le fait qu’elle ne soit pas évidente pour un homme de l’art, ne semble pas non plus être présent. Quant à l’utilité de l’« invention » (ce à quoi elle servira), elle ne peut – et pour cause – qu’être formulée dans les termes les plus vagues: la séquence obtenue est beaucoup trop partielle pour permettre de prédire une fonction précise... Le bureau des brevets, aux États-Unis, a rejeté cette requête, mais le passé montre que le demandeur peut faire appel, souvent avec succès. La question n’est donc pas définitivement réglée. Aux États-Unis comme ailleurs, beaucoup de scientifiques sont opposés à cette prise de brevet, considérant qu’elle risque de freiner considérablement la diffusion des résultats et d’aboutir à un gigantesque gaspillage. La France a pris à cet égard des positions très fermes.

4. Les perspectives

Les Programmes génome constituent désormais un volet incontournable de la recherche biologique dans la plupart des nations développées. Il est vraisemblable qu’ils produiront, dans les toutes prochaines années, une carte génétique très détaillée (carte à 1 ou 2 centimorgans) et un ensemble de cartes physiques pour chaque chromosome sous forme de contig de Y.A.C. On peut s’attendre aussi à un catalogue sous forme d’étiquettes (séquences partielles) de la majorité de nos gènes, et au déchiffrage de quelques mégabases d’ADN humain – peut-être beaucoup plus, si de nouvelles méthodes de déchiffrage deviennent opérationnelles. Les retombées scientifiques et médicales de ces travaux apparaissent déjà considérables: ils vont être – et sont déjà – le fondement d’une génétique médicale beaucoup plus performante, comme en témoigne l’identification toujours plus rapide de gènes impliqués dans des maladies héréditaires.

Le développement de ce secteur entraîne de profonds changements dans la conception et l’organisation de la recherche biologique. Certains travaux, pour être efficaces, doivent être menés d’une manière quasi industrielle, comme le montre en France le laboratoire du Généthon. Les techniques évoluent rapidement, sous la poussée du volume des résultats à obtenir et grâce aux financements confortables des programmes; l’informatique, lente à pénétrer en biologie, fait une entrée en force, ne serait-ce que pour archiver et gérer des masses importantes de données et les mettre à la disposition de tous les chercheurs. Ces évolutions vont s’accélérer, et ce mode de gestion s’étendra sans doute à d’autres domaines de la biologie.

L’application des nouvelles connaissances acquises interroge déjà notre société: extension des cas où le diagnostic prénatal est possible, prévision de maladies à apparition tardive ou détection de prédispositions génétiques. Quels tests génétiques pourront, devront être pratiqués? À la demande de qui, dans quelles conditions de confidentialité? Au-delà du diagnostic, comment gérerons-nous la thérapie génique, où mettrons-nous la limite entre « réparation » d’un défaut et amélioration de l’individu, sinon de l’espèce? Ces questions, qui résultent de l’application des connaissances découlant des Programmes génome, ne sont pas insolubles; mais elles méritent que l’ensemble des citoyens – et pas seulement les scientifiques – leur accordent l’attention nécessaire.

Encyclopédie Universelle. 2012.

Игры ⚽ Поможем сделать НИР

Regardez d'autres dictionnaires:

  • CERVEAU HUMAIN — De tout temps, la nature des rapports entre le cerveau, structure anatomique fonctionnelle de mieux en mieux connue, et ce qu’on désigne comme étant l’esprit ou le psychisme a stimulé l’intérêt de l’homme, comme en témoigne l’historique établi… …   Encyclopédie Universelle

  • Projet:Médecine/Index — Articles 0 9 1,2 dibromo 3 chloropropane · 112 (numéro d urgence européen) · 1935 en santé et médecine · 1941 en santé et médecine · 1er régiment médical · 2 iodothyronine déiodinase · 2,4,6 trichlorophénol · 2005 en santé et médecine · 2006 en… …   Wikipédia en Français

  • Jean Weissenbach — Naissance 13 février 1946 Strasbourg (France) Nationalité française Champs Génétique, biologie molécul …   Wikipédia en Français

  • Bioch — Biochimie Représentation tridimensionnelle de la neuraminidase. Les coordonnées des atomes ont été obtenues par Diffractométrie de rayons X sur un cristal de la protéine. La biochimie est la discipline scientifique qui étudie les réactions… …   Wikipédia en Français

  • Biochimie — Représentation tridimensionnelle de la neuraminidase. Les coordonnées des atomes ont été obtenues par diffractométrie de rayons X sur un cristal de la protéine. La biochimie est la discipline scientifique qui étudie les réactions chimiques ayant… …   Wikipédia en Français

  • Biochimique — Biochimie Représentation tridimensionnelle de la neuraminidase. Les coordonnées des atomes ont été obtenues par Diffractométrie de rayons X sur un cristal de la protéine. La biochimie est la discipline scientifique qui étudie les réactions… …   Wikipédia en Français

  • Biochimiste — Biochimie Représentation tridimensionnelle de la neuraminidase. Les coordonnées des atomes ont été obtenues par Diffractométrie de rayons X sur un cristal de la protéine. La biochimie est la discipline scientifique qui étudie les réactions… …   Wikipédia en Français

  • Liste des articles de médecine — Projet:Médecine/Index Articles 0 9 112 (numéro d urgence européen) · 2 iodothyronine déiodinase · 2,4,6 trichlorophénol · 3000 Scénarios contre un virus · A A. J. Cronin · Aaron Esterson · Aaron Temkin Beck · Abacavir · Abascantus · Abasie ·… …   Wikipédia en Français

  • BIOTECHNOLOGIES — Sous le terme biotechnologie, on désigne habituellement tout un ensemble de techniques qui visent à l’exploitation des micro organismes, des cellules animales et végétales et de leurs constituants, tels que les enzymes, pour la production de… …   Encyclopédie Universelle

  • ANTÉNATOLOGIE — Le diagnostic prénatal a été mis au point et développé depuis 1970 pour permettre aux couples à risques d’avoir les enfants normaux qu’ils désirent, en permettant le dépistage dans l’utérus de la femme enceinte (in utero) d’anomalie embryonnaire… …   Encyclopédie Universelle

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”